Vereinigte Staaten von Amerika
Die Vereinigten Staaten von Amerika sind ein Land in Nordamerika . Man nennt sie auch kurz Vereinigte Staaten oder USA. Das kommt vom englischen Namen „United States of America“. Viele Leute sagen auch nur „ Amerika “, das ist aber ein Kontinent , der noch größer ist.
Aus dem Inhalt:
[...] Sie mussten dort zum Beispiel Baumwolle anbauen, was den Besitzern der Sklaven viel Geld eingebracht hat. In den Teilstaaten im Norden fand man Sklaverei [...]
https://klexikon.zum.de/wiki/USA